热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

也就是|雪球_详解主成分分析PCA与奇异值分解SVD降维后的矩阵components_&inverse_transform菜菜的sklearn课堂笔记

篇首语:本文由编程笔记#小编为大家整理,主要介绍了详解主成分分析PCA与奇异值分解SVD-降维后的矩阵components_&inverse_transform菜菜的sklearn课堂笔记相

篇首语:本文由编程笔记#小编为大家整理,主要介绍了详解主成分分析PCA与奇异值分解SVD-降维后的矩阵components_ & inverse_transform菜菜的sklearn课堂笔记相关的知识,希望对你有一定的参考价值。



V(k,n)这个矩阵保存在.components_这个属性当中
我们之前谈到过PCA与特征选择的区别,即特征选择后的特征矩阵是可解读的,而PCA降维后的特征矩阵式不可解读的:PCA是将已存在的特征进行压缩,降维完毕后的特征不是原本的特征矩阵中的任何一个特征,而是通过某些方式组合起来的新特征。通常来说,在新的特征矩阵生成之前,我们无法知晓PCA都建立了怎样的新特征向量,新特征矩阵生成之后也不具有可读性,我们无法判断新特征矩阵的特征是从原数据中的什么特征组合而来,新特征虽然带有原始数据的信息,却已经不是原数据上代表着的含义了。
但是其实,在矩阵分解时,PCA是有目标的:在原有特征的基础上,找出能够让信息尽量聚集的新特征向量。在sklearn使用的PCA和SVD联合的降维方法中,这些新特征向量组成的新特征空间其实就是V(k,n)。当V(k,n)是数字时,我们无法判断V(k,n)和原有的特征究竟有着怎样千丝万缕的数学联系。但是,如果原特征矩阵是图像,V(k,n)这个空间矩阵也可以被可视化的话,我们就可以通过两张图来比较,就可以看出新特征空间究竟从原始数据里提取了什么重要的信息

我们以人脸识别中属性components_为例

from sklearn.datasets import fetch_lfw_people
from sklearn.decomposition import PCA
import matplotlib.pyplot as plt
import numpy as np
faces = fetch_lfw_people(min_faces_per_person=60) # 实例化
# min_faces_per_person:在数据集中每个人取出n张脸图
print(faces.DESCR) # 需要的话自己看吧
faces.data.shape
# 每一行是样本,即1348个样本
# 列式样本相关的所有特征,即2914个特征
# 因此,可视化这一部分没有意义
---
(1348, 2914)
faces.images.shape # 注意是三维的
# 严格来说,这个才是图像的特征矩阵
# 1348是矩阵中图像的个数
# 62是每个图像的特征矩阵的行,行上有62个像素
# 42是每个图像的特征矩阵的列,列上有47个像素
# 之前的2914=62*47,一张图就要有一行一列,可以看做一个表
# 因此我们可以对62*47这一部分进行可视化
---
(1348, 62, 47)
X = faces.data
# 之前的plt.figure是无法画多个图的
fig, axes = plt.subplots(4,5 # 子图4行5列。现在直接执行会给4*5=20个框,其他什么也没有
# 4,5表示要画20个图,在这里也就是20张脸,可以写其他数
,figsize=(8,4) # 画布的尺寸和比例和大小,8代表行,4代表列
# figsize的对象是figure不是某一个subplot
,subplot_kw="xticks":[],"yticks":[] # 不显示坐标轴
)

fig # 生成的一张纸

axes # 4行5列,matplotlib的对象
# axes中的一个对象对应fig中的一个空格
---
array([[,
,
,……
# 4*5的array,里面都是matplotlib对象
axes.shape
---
(4, 5)
axes[0,0] # 指定那个对象和一般的矩阵一样
axes[0,0].imshow(faces.images[0,:,:])
# 生成一个更新过的matplotlib对象
# 我们只是改变了axes对象,在这里执行完这个cell显示图像
# 只有再次看fig画布才看看到效果
# imshow要求的数据格式必须是一个(m,n)格式的矩阵,即每个数据都是一张单独的图,我们需要遍历的是faces.images,其结构是(1277, 62, 47)
fig

我们要花$4\\times 5=20$个图,二维结构,可以有两种循环方式,一种是使用索引,循环一次同时生成一列上的三个图;另一种是把数据拉成一维,循环一次只生成一个图。这里我们选择后者

[*enumerate(axes.flat)]
---
[(0, ),
(1, ),
(2, ),
(3, ),
# flat降维成一维
# enumerate每个对象带序号构成一个元组,因为是惰性对象,所以在列表中可以用*打开

填充所有子图

for i, ax in enumerate(axes.flat):
ax.imshow(faces.images[i,:,:],cmap=gray) # 选择色彩的模式,原本显示绿色,设置显示黑白
fig

降维,并获取components_

pca = PCA(150).fit(X) # X = faces.data,注意faces.data.shape为(1348, 2914)
V = pca.components_ # 是V^T而不是V
V.shape
---
(150, 2914)
V[0].shape # 这一行的shape,意义不大
---
(2914,)
V[0].reshape(62,47).shape # 这里实际上是被选中的降维所用的特征向量进行reshape
---
(62, 47)
fig, axes = plt.subplots(5,10,figsize=(8,4),subplot_kw = "xticks":[],"yticks":[])
for i,ax in enumerate(axes.flat):
ax.imshow(V[i,:].reshape(62,47),cmap=gray)
# 这里对V进行可视化,显然画的不是图片,而是特征向量
# 个人理解,这里的V是150*2914,150个特征向量也就是150个最重要的点
# X*V,也就是通过X对V这150个特征组成的图像进行加权得到降维后的图像
# 越靠前的V越重要,越靠后的区分度越小
# 前几个特征也就是这个前几个图像主要关注了五官的位置,光照等

可以看出,比起降维前的数据,新特征空间可视化后的人脸非常模糊,这是因为原始数据还没有被映射到特征空间中。但是可以看出,整体比较亮的图片,获取的信息较多,整体比较暗的图片,却只能看见黑漆漆的一块。在比较亮的图片中,眼睛,鼻子,嘴巴,都相对清晰,脸的轮廓,头发之类的比较模糊。
这说明,新特征空间里的特征向量们,大部分是"五官"和"亮度"相关的向量,所以新特征向量上的信息肯定大部分是由原数据中和"五官"和"亮度"相关的特征中提取出来的。到这里,我们通过可视化新特征空间V,解释了一部分降维后的特征:虽然显示出来的数字看着不知所云,但画出来的图表示,这些特征是和”五官“以及”亮度“有关的。这也再次证明了,PCA能够将原始数据集中重要的数据进行聚集。

这里关于白化其实在sklearn里就是一个参数

PCA(
[n_compOnents=None, copy=True, whiten=False, "svd_solver=auto", tol=0.0, "iterated_power=auto", random_state=None],
)
# whiten:是否PCA后进行白化

个人理解,我们PCA是求的$X_dr=X \\cdot V$,其中$V$是特征向量组成的矩阵,白化PCA就是$X_w= X \\cdot V \\cdot \\Lambda^- \\frac12$,这里$\\Lambda$就是协方差矩阵$S$的特征值
$$
\\beginaligned
\\Sigma_w&=\\frac1mX_w^TX_w\\
&=\\frac1m\\Lambda^- \\frac12V^TX^T \\cdot XV\\Lambda^- \\frac12\\
&=\\Lambda^- \\frac12V^T\\cdot \\frac1mX^TX \\cdot V \\Lambda^- \\frac12\\
&=\\Lambda^- \\frac12 V^TS V \\Lambda^- \\frac12\\
&=\\Lambda^- \\frac12V^T\\cdot V \\Lambda V^T\\cdot V\\Lambda^- \\frac12\\
&=\\textI
\\endaligned
$$
因此我们说数据在经过PCA白化以后,其协方差矩阵是一个单位矩阵,各维度不线性相关,且每个维度方差都是1


inverse_transform

在特征工程课中,我们学到了接口inverse_transform,可以将我们归一化,标准化,甚至做过哑变量的特征矩阵还原回原始数据中的特征矩阵,这几乎在向我们暗示,任何有inverse_transform这个接口的过程都是可逆的。PCA应该也是如此。在sklearn中,我们通过让原特征矩阵X右乘新特征空间矩阵$V_((k,n))$来生成新特征矩阵$X_dr$,那理论上来说,让新特征矩阵$X_dr$右乘V(k,n)的逆矩阵$V^-1((k,n))$,就可以将新特征矩阵$Xdr$还原为X。

用上面人脸识别看PCA降维后的信息保存量

from sklearn.datasets import fetch_lfw_people
from sklearn.decomposition import PCA
import matplotlib.pyplot as plt
import numpy as np
faces = fetch_lfw_people(min_faces_per_person=60)
X = faces.data
X.shape
---
(1348, 2914)
pca = PCA(150)
X_dr = pca.fit_transform(X)
X_dr.shape
---
(1348, 150)
X_inverse = pca.inverse_transform(X_dr)
X_inverse.shape
# 期待X_inverse和原数据有相同的结构,如果相同,我们就说inverse_transform实现了降维过程的逆转
# 维度相同,即使inverse_transform将降维后的数据映射回原数据所在的维度空间中,但信息已经损失了
---
(1348, 2914)
fig, ax = plt.subplots(2,10,figsize=(10,2.5)
,subplot_kw=xticks:[],yticks:[]
)
for i in range(10):
ax[0,i].imshow(faces.images[i,:,:],cmap=binary_r)
ax[1,i].imshow(X_inverse[i].reshape(62,47),cmap=binary_r)
fig
# 第一行是原数据,第二行是inverse_transform后返回的数据
---

可以明显看出,这两组数据可视化后,由降维后再通过inverse_transform转换回原维度的数据画出的图像和原数据画的图像大致相似,但原数据的图像明显更加清晰。这说明,inverse_transform并没有实现数据的完全逆转。这是因为,在降维的时候,部分信息已经被舍弃了,$X_dr$中往往不会包含原数据100%的信息,所以在逆转的时候,即便维度升高,原数据中已经被舍弃的信息也不可能再回来了。所以,降维不是完全可逆的。
inverse_transform的功能,是基于$X_dr$中的数据进行升维,将数据重新映射到原数据所在的特征空间中,而并非恢复所有原有的数据。但同时,我们也可以看出,降维到300以后的数据,的确保留了原数据的大部分信息,所以图像看起来,才会和原数据高度相似,只是稍稍模糊罢了。


推荐阅读
  • sklearn数据集库中的常用数据集类型介绍
    本文介绍了sklearn数据集库中常用的数据集类型,包括玩具数据集和样本生成器。其中详细介绍了波士顿房价数据集,包含了波士顿506处房屋的13种不同特征以及房屋价格,适用于回归任务。 ... [详细]
  • Java容器中的compareto方法排序原理解析
    本文从源码解析Java容器中的compareto方法的排序原理,讲解了在使用数组存储数据时的限制以及存储效率的问题。同时提到了Redis的五大数据结构和list、set等知识点,回忆了作者大学时代的Java学习经历。文章以作者做的思维导图作为目录,展示了整个讲解过程。 ... [详细]
  • 本文介绍了OC学习笔记中的@property和@synthesize,包括属性的定义和合成的使用方法。通过示例代码详细讲解了@property和@synthesize的作用和用法。 ... [详细]
  • Givenasinglylinkedlist,returnarandomnode'svaluefromthelinkedlist.Eachnodemusthavethe s ... [详细]
  • Android自定义控件绘图篇之Paint函数大汇总
    本文介绍了Android自定义控件绘图篇中的Paint函数大汇总,包括重置画笔、设置颜色、设置透明度、设置样式、设置宽度、设置抗锯齿等功能。通过学习这些函数,可以更好地掌握Paint的用法。 ... [详细]
  • Java太阳系小游戏分析和源码详解
    本文介绍了一个基于Java的太阳系小游戏的分析和源码详解。通过对面向对象的知识的学习和实践,作者实现了太阳系各行星绕太阳转的效果。文章详细介绍了游戏的设计思路和源码结构,包括工具类、常量、图片加载、面板等。通过这个小游戏的制作,读者可以巩固和应用所学的知识,如类的继承、方法的重载与重写、多态和封装等。 ... [详细]
  • 本文介绍了Python对Excel文件的读取方法,包括模块的安装和使用。通过安装xlrd、xlwt、xlutils、pyExcelerator等模块,可以实现对Excel文件的读取和处理。具体的读取方法包括打开excel文件、抓取所有sheet的名称、定位到指定的表单等。本文提供了两种定位表单的方式,并给出了相应的代码示例。 ... [详细]
  • YOLOv7基于自己的数据集从零构建模型完整训练、推理计算超详细教程
    本文介绍了关于人工智能、神经网络和深度学习的知识点,并提供了YOLOv7基于自己的数据集从零构建模型完整训练、推理计算的详细教程。文章还提到了郑州最低生活保障的话题。对于从事目标检测任务的人来说,YOLO是一个熟悉的模型。文章还提到了yolov4和yolov6的相关内容,以及选择模型的优化思路。 ... [详细]
  • 本文介绍了在Python3中如何使用选择文件对话框的格式打开和保存图片的方法。通过使用tkinter库中的filedialog模块的asksaveasfilename和askopenfilename函数,可以方便地选择要打开或保存的图片文件,并进行相关操作。具体的代码示例和操作步骤也被提供。 ... [详细]
  • 本文介绍了一个Java猜拳小游戏的代码,通过使用Scanner类获取用户输入的拳的数字,并随机生成计算机的拳,然后判断胜负。该游戏可以选择剪刀、石头、布三种拳,通过比较两者的拳来决定胜负。 ... [详细]
  • 开发笔记:加密&json&StringIO模块&BytesIO模块
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了加密&json&StringIO模块&BytesIO模块相关的知识,希望对你有一定的参考价值。一、加密加密 ... [详细]
  • [译]技术公司十年经验的职场生涯回顾
    本文是一位在技术公司工作十年的职场人士对自己职业生涯的总结回顾。她的职业规划与众不同,令人深思又有趣。其中涉及到的内容有机器学习、创新创业以及引用了女性主义者在TED演讲中的部分讲义。文章表达了对职业生涯的愿望和希望,认为人类有能力不断改善自己。 ... [详细]
  • 也就是|小窗_卷积的特征提取与参数计算
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了卷积的特征提取与参数计算相关的知识,希望对你有一定的参考价值。Dense和Conv2D根本区别在于,Den ... [详细]
  • Python瓦片图下载、合并、绘图、标记的代码示例
    本文提供了Python瓦片图下载、合并、绘图、标记的代码示例,包括下载代码、多线程下载、图像处理等功能。通过参考geoserver,使用PIL、cv2、numpy、gdal、osr等库实现了瓦片图的下载、合并、绘图和标记功能。代码示例详细介绍了各个功能的实现方法,供读者参考使用。 ... [详细]
  • Java学习笔记之面向对象编程(OOP)
    本文介绍了Java学习笔记中的面向对象编程(OOP)内容,包括OOP的三大特性(封装、继承、多态)和五大原则(单一职责原则、开放封闭原则、里式替换原则、依赖倒置原则)。通过学习OOP,可以提高代码复用性、拓展性和安全性。 ... [详细]
author-avatar
mobiledu2502862267
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有